记录Stable-Diffusion-Webui 在Windows11的Anaconda环境下的避坑安装
记录工作,工作复盘电脑配置情况大致记录如下,请参考:MSI移动工作站,64G内存,4GB显存。
Stable Diffusion WebUi云端部署配置记录
服务器部署sdwebui项目,远程浏览器访问ui界面。服务器可租用AutoDL的GPU服务器租用AutoDL的GPU服务器,Linux作者AUTOMATIC1111,github项目地址。
MAC安装stable diffusion
任意文本编辑器打开webui根目录下的launch.py找到下列代码。这个错误是访问不了: huggingface.co;最后看看效果,没有特殊配置,效果不太好,但是说明整体能work了。把那几个GitHub的源改成国内码云搬运的。发现这个错误直接切换pip源。
AI生成漫画或者小说推文——自动根据角色画绘本如何保持角色生成一致性的问题
AutoStory的主要目标是通过最小的人力投入来创建满足特定用户需求的多样化故事可视化。通过结合LLMs和扩散模型的能力,我们成功获得了文本对齐、身份一致和高质量的故事图像。此外,通过我们精心设计的故事可视化流程和提出的角色数据生成模块,我们的方法简化了生成过程,减轻了用户的负担,有效消除了用户进
千言万象【免费的AI文字写作和绘画的工具】
千⾔万象是⼀个集 AI ⽂字创作和 AI 绘图于⼀体的创作⼯具,它以⽤⼾的创作需求为核⼼,致⼒于提供快速、⾼效、⾼质量的内容创作服务。操作简便、⽣成迅捷、质量上乘,是每⼀个创意⼯作者不可或缺的智能伙伴。
无需翻墙|Stable Diffusion WebUI 安装|AI绘画
最近终于有机会从围墙里往外看,了解到外面的世界已经有了天翻地覆的变化,感叹万千,笔者在本地mac,windows,linux,docker部署了不下20遍后,整理出来的极简避坑安装方案,供大家参考学习。
A卡安装stable diffusion,不废话,直接迈入正题!
A卡安装本地stable diffusion
基于CPU的云部署Stable-diffusion-webui的详细过程
最近看到很多很精美的AI图片,也想体验下,正好我有台2vCPU和2G内存轻量云服务器,但是不想再额外买GPU,就想着用CPU模式自己部署,部署经过摸索能顺利完成,但是加载模型已经很吃力,老是提示没有足够内存。本过程主要是用来记录部署的详细过程,仅针对于CPU跑Stable-diffusion-web
用通俗易懂的方式讲解:Stable Diffusion WebUI 从零基础到入门
本文主要介绍 Stable Diffusion WebUI 的实际操作方法,涵盖prompt推导、lora模型、vae模型和controlNet应用等内容,并给出了可操作的文生图、图生图实战示例。适合对Stable Diffusion感兴趣,但又对Stable Diffusion WebUI使用感到
云服务器部署Stable Diffusion Webui从0到1总结:反复重启+循环debug
然后退出vim重新运行就行,退出方式:先点击Esc键,这一步的意思是vim准备接受命令了。点击图中下载按钮,下载 v1-5-pruned-emaonly.safetensors 到 stable-diffusion-webui/models/Stable-diffusion 目录,其他模型同理。点击
comfyUI + animateDiff video2video AI视频生成工作流介绍及实例
最近一段时间,使用stable diffusion + animateDiff生成视频非常热门,但普通用户想要在自己电脑上成功生成一段视频并不容易。本文将介绍如何加载comfyUI + animateDiff的工作流,并生成相关的视频。设置视频工作环境生成第一个视频进一步生成更多视频注意事项介绍co
Stable Diffusion 最新Ebsynth Utility脚本生成AI动画视频
早期的EbSynth制作的AI视频闪烁能闪瞎人的双眼,可以通过【temporalkit+ebsynth+controlnet】让视频变得丝滑不闪烁,现在又多了一个新的方法,在最新版本的Ebsynth Utility中可以通过脚本进行操作设置,更加简单方便。
stable diffusion webui 参数详解
34. --hide-ui-dir-config:从Web UI中隐藏目录配置。--gradio-auth-path:设置Gradio身份验证文件路径,例如 "/path/to/auth/file",与--gradio-auth的格式相同。--always-batch-cond-uncond:禁用使
Stable-diffusion WebUI API调用方法
写这篇文章的主要原因是工作中需要写一个用训练好的模型批量生图的脚本,开始是想用python直接加载模型,但后来发现webui的界面中有很多用起来比较方便的插件和参数,最终改成调用WebUI接口的方式来批量生图。Stable-diffusion的webui界面使用比较方便,但是它的api文档比较简陋,
Stable Diffusion WebUI Linux系统部署
因为有AIGC方面的需要,所以研究了一下大火的stable diffusion,我自己之前没有部署这个的经验,所以基本是从0开始研究,在网上搜了各种教程一步一步的终于在服务器上成功运行了Stable Diffusion WebUI ,以此记录一下我的部署过程,方便后面需要的时候回看。执行./webu
AI 绘画 | Stable Diffusion 视频数字人
本篇文章教会你如何利用Stable Diffusion WEB UI,使用一个人物图片转换成为一个口播视频。本篇内容的教程以WINDOWS系统为例,教你如何安装使用。先看视频效果彭于晏图片生成口播视频。
stable-diffusion-webui的逐步部署教程
本文主要介绍了stable-diffusion-webui的逐步部署教程,希望能对使用Stable Diffusion的同学们有所帮助。文章目录1. 前言2. 逐步部署教程 2.1 创建Python环境 2.2 安装依赖库 2.3 运行代码
Stable Diffusion XL webui tagger 插件Linux安装(保姆级教程)
为了使SD能生成我们想要的图像效果,往往需要对SD模型进行微调,但其权重参数太多,如果是用更新全部参数的方法来微调,会耗费大量的计算资源。那么可不可以仅需少量计算资源,对模型进行微调,也有不错的效果呢?答案是肯定的,那就是:基于LoRA对其进行微调!本文写作动机:想自己训练LoRA,需要对训练数据进
AI 绘画Stable Diffusion 研究(十七)SD lora 详解(上)
LORA是一种在消耗更少内存的情况下,加速大型模型训练的训练方法,在stable diffusion中它允许使用低阶适应技术来快速微调扩散模型。需要注意的是,每个 LORA 模型对输出图像的权重设置是非常重要的。权重设置越大,对画面的影响因素就越浅。因此我们在这里将重点介绍 LORA 模型相关的知识
Stable Diffusion Webui在Linux服务器第一次运行不能连接huggingface
由于网络原因, hugging face在国内无法访问, 所以出现了该错误, 笔者所使用的Linux服务器不能使用非常的上网手段, 通过在本地windows运行stable-diffusion-webui并进行排查, 找到了问题所在。Linux服务器的~/.cache/huggingface/hub